🇩🇪 de fr 🇫🇷

Wilder Westen noun {m}

Wilde Westen/Wilder Westen/ein Wilder Westen   /ˌvɪldɐ ˈvɛstn̩/
  • eine umgangssprachliche Bezeichnung für die Gebiete der USA, die in der "Pionierzeit" des 19. Jahrhunderts, im engeren Sinn der zweiten Hälfte dieses Jahrhunderts noch nicht als Bundesstaaten in der Union aufgenommen waren.
Far West
Wiktionary Links